Inteligența artificială știe înaintea ta când vei rămâne însărcinată: ce proiect are Microsoft

de: Ozana Mazilu
24 02. 2022

Microsoft are un proiect interesant în ceea ce privește inteligența artificială. Compania a dezvoltat într-o provincie izolată din nord-vestul Argentinei un algoritm AI care să determine care adolescente vor rămâne însărcinate.

Pe baza datelor privind situația lor socio-economică, autoritățile din provincia argentiniană Salta au aprobat acest proiect despre care Microsoft susține că reprezintă „unul dintre cazurile de pionierat în folosirea datelor de către AI”.

Microsoft a făcut un proiect AI cel puțin îngrijorător

Wired notează că algoritmul a folosit date demografice precum vârsta, etnia, țara de origine, eventualele dizabilități sau dacă o locuință avea sau nu apă caldă în baie. Toate acestea pentru a determina care femei și fete dintr-un micuț orășel din această provincie erau „predestinate” să devină mame.

Proiectul fost oferit autorităților locale de către Microsoft în 2018, într-o perioadă în care Congresul argentinian dezbătea decriminalizarea avortului.

Mai exact, algoritmul numit „Technology Platform for Social Intervention” a identificat cel mai adesea ca viitoare mame adolescentele care proveneau dintr-un mediu economic precar, familii destrămate sau de origine indigenă.

Programul a implicat inclusiv „agenți teritoriali” care au mers pe teren să le intervieveze pe tinerele identificate de AI ca viitoare mame, le-au fotografiat și au înregistrat până și locul în care locuiau cu ajutorul sateliților GPS.

Nu e clar de ce autoritățile regionale sau naționale au făcut asta și, mai ales, ce au făcut cu datele culese de Microsoft sau dacă ele au avut vreo legătură cu dezbaterile privind avortul din țara sud-americană.

Congresul argentinian a votat să legalizeze avortul la sfârșitul lui 2020, o mutare considerată istorică pentru o țară profund catolică din America Latină.

În orice caz, testele făcute de Microsoft în Argentina ar trebui să reprezinte un semnal de alarmă cu privire la folosirea inteligenței artificiale în scopuri îndoielnice, mai ales când vine vorba de experimente sociale la scară largă.